-
1 рецидив
-
2 рецидив
См. также в других словарях:
récurrent — récurrent, ente [ rekyrɑ̃, ɑ̃t ] adj. • 1541; du lat. recurrens « qui revient en arrière » 1 ♦ Anat. Se dit d un nerf, d un vaisseau qui revient en arrière au lieu de prolonger le tronc d où il tire son origine. 2 ♦ Méd. Fièvre récurrente :… … Encyclopédie Universelle
Un cas pour deux — Logo Titre original Ein Fall Für Zwei Genre Série policière Créateur(s) Karl Heinz Willschrei Pays d’origine … Wikipédia en Français
Maladie adénomatoide kystique du poumon — La maladie adénomatoide kystique du poumon aussi nommée maladie adénomatoide du poumon est une pathologie congénitale caractérisée par une prolifération anormale de tissu bronchique avec apparition de kystes pulmonaires. Cette pathologie survient … Wikipédia en Français
Maladie Adénomatoide Kystique Du Poumon — La maladie adénomatoide kystique du poumon aussi nommée maladie adénomatoide du poumon est une pathologie congénitale caractérisée par une prolifération anormale de tissu bronchique avec apparition de kystes pulmonaires. Cette pathologie survient … Wikipédia en Français
Maladie adenomatoide kystique du poumon — Maladie adénomatoide kystique du poumon La maladie adénomatoide kystique du poumon aussi nommée maladie adénomatoide du poumon est une pathologie congénitale caractérisée par une prolifération anormale de tissu bronchique avec apparition de… … Wikipédia en Français
Récurrence et transience d'une chaîne de Markov — Un état d une chaîne de Markov est dit récurrent si une trajectoire « typique » de la chaîne de Markov passe par une infinité de fois, sinon l état est dit transient. Ces propriétés de transience ou de récurrence sont souvent partagées… … Wikipédia en Français
Probabilité stationnaire d'une chaîne de Markov — La probabilité stationnaire d une chaîne de Markov s interprète usuellement comme la fraction du temps passé en chaque état de l espace d états de cette chaîne de Markov, asymptotiquement. En effet, une version de la loi forte des grands nombres… … Wikipédia en Français
Chaine De Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaine de Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaine de markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaîne De Markov — Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un processus stochastique… … Wikipédia en Français